??? Immagine/AltImage ???

nemitz

Dottor Nemitz*, lei è uno degli esperti internazionali e una delle voci istituzionali più aperte e più coinvolte in un dialogo costruttivo e plurale con le scienze e l’accademia. In diverse occasioni di recente ha avuto modo di intervenire in Italia sul tema delle riforme della giustizia e della qualità organizzativa che coniugata con una alta professionalità permette di inverare quegli auspici che tutti abbiamo ascritto alla attuazione del PNRR. Dalla sua prospettiva di policy maker, studioso, ed attento analista internazionale ha modo di seguire puntualmente la evoluzione delle regolazioni in materia di intelligenza artificiale. US, China, Europa, tre realtà da sempre diverse; eppure, in un mondo globale inevitabilmente interdipendenti, si stanno cimentando con la creazione e l’adozione di regole di diverso grado di cogenza in materia di intelligenza artificiale. Esiste un marchio di fabbrica europeo?

Non è la prima volta che l’Unione Europea si cimenta con un terreno nuovo dove la “fabbrica” della norma del diritto svolge la funzione anche di esplorazione di quanto le istituzioni europee siano resilienti dinnanzi al cambiamento. Nel caso dell’intelligenza artificiale siamo dinnanzi ad un grande momento di riflessione e di sforzo normativo, che ha la caratteristica unica di volere coniugare da un lato la apertura al pluralismo dell’innovazione e dall’altro la promozione della competitività e dello sviluppo economico di carattere sostenibile in tutta l’Europa – quindi cercando di evitare effetti di dumping. Questi due elementi sono contemperati sotto l’egida di quello che considero l’aspetto distintivo del modello europeo, ossia il primato dei diritti fondamentali e dello Stato di diritto. Non è un caso che il principio di precauzione e le tipologie di rischio siano stati previsti ex ante, ossia nella tessitura stessa del regolamento.

Ritengo peraltro che l’Unione europea abbia fatto uno sforzo di visione che già proietta tutta la normativa sul digitale anche quella già in essere in scenari futuri. Non si tratta di un futuro lontano, ma di un futuro prossimo. Anzi già attuale.

Vi è poi un ulteriore elemento che riguarda il fatto che il modello europeo sta cercando di contrastare fortemente le discriminazioni e le forme di iniquità che potrebbero essere veicolate anche in modo non intenzionale dalle forme di intelligenza artificiale che vengono poi utilizzate nei servizi e nei settori chiave per le persone. Si tratta di un aspetto molto importante.

Se ben comprendo nella sua analisi il bilanciamento appare un elemento importante e distintivo del modello europeo, ancorché sottoposto al primato dello Stato di diritto e della legalità. Immagino che questo possa dirsi anche nei singoli settori, dove spesso l’intelligenza artificiale mette in discussione e chiede una trasformazione profonda del modus operandi di imprese e organizzazioni pubbliche. In Europa abbiamo una società la cui età media appare destinata ad aumentare. In che modo a sua opinione l’attuazione della normativa in materia di digitale potrebbe chiamare in causa strategie e azioni che siano indirizzate ad una aging society, come la si definisce internazionalmente, che dovrà essere messa nella condizione di accedere a servizi e di potersi tutelare? Cosa possono fare le università in tal senso?

Che vi sia una call for action in materia di competenze e di digital skills è un punto consensualmente posto al centro dell’agenda europea. Anche questo è in qualche modo un punto distintivo del modello europeo, attraverso le competenze si costruisce un mondo migliore, più capace di essere alla altezza delle sfide che la tecnologia sta aprendo dinnanzi ai nostri occhi ogni giorno. Competenze significa anche riqualificazione delle competenze attualmente esistenti. Non si tratta di un ideale astratto. Si tratta di una azione che pervade e attraversa tutti i livelli e tutti gli spazi. Ci vedo un potenziale di crescita delle persone.

Come sa le università sono da tempo attive sul tema del digitale. Moltissimi percorsi di formazione sono stati avviati e consolidati, anche con moltissimi partenariati fra università, i quali permettono ai giovani e alle giovani di avere visioni diverse e di incontrarsi per formarsi insieme. Esiste poi un tema legato alla ricerca. Le università possono e devono mantenere una forte presa sulla ricerca scientifica in questi ambiti. Infatti, sono i luoghi nei quali la ricerca può percorrere traiettorie autonome e indipendenti. I finanziamenti europei che promuovono la ricerca avanzata e giovane sono in tal senso un asset del modello europeo.

Eppure, sovente quando si parla di intelligenza artificiale si pensa spesso ad una perdita di controllo. È paradossale vedere come il dibattito sia spesso oscillante fra rischio di eccesso di controllo – sorveglianza digitale - e perdita di controllo. Da un punto di vista scientifico la riflessione rigorosa porta a ricentrare la questione del potere e sulle forme di perimetro e vincolo ovvero di accountability al suo utilizzo. Siamo sempre più in un mondo dove il potere decisionale è esercitato a tutti i livelli anche con l’ausilio di strumenti di potente computazione e tecniche AI driven. Come si fa a trovare un punto archimedeo per assicurare che la società digitale non perda il controllo del potere a favore di oligopoli o in ragione di irrisolvibili asimmetrie di sapere?

Sono sempre stato convinto che il concetto di accountability democratica sia da prendere sul serio e sia il concetto capace di aprirci la strada ad un bilanciamento e ad un pluralismo che sono estremamente necessari nella società che stiamo costruendo. Più forte la pervasività della tecnologia più intensa dovrà essere la ciclicità della accountability democratica. Il controllo democratico passa attraverso la trasparenza e passa attraverso le competenze. Occorre che il cittadino sappia che esiste la possibilità di una accountability democratica che si dispiega regolarmente. Questo crea una dinamica di fiducia. Nelle mie conferenze e nelle mie interlocuzioni con le comunità scientifiche metto spesso l’accento sul fatto che abbiamo bisogno di apprendere dalle prassi e dalle esperienze che ciascuno sta facendo, nel proprio paese, o nel proprio settore. Insomma, la accountability democratica si coniuga con l’apprendimento delle istituzioni.  

 

* Paul Nemitz è Principal Advisor del Department for Justice and Consumer della Commissione europea. Questa intervista esprime la sua individuale opinione e non impegna in alcun modo la Commissione europea.